ChatGPT ще предостави по-подробни и точни отговори, ако се преструвате, че го давате, според ново проучване
Какво би трябвало да знаете
Ново изследване демонстрира по какъв начин ChatGPT дава по-добри и по-подробни отговори към запитвания, когато се преструвате, че го давате.
Програмистът уточни, че дългите отговори, видяни по време на опита, се приписват на задълбочените детайлности, предоставени във въпросите, съчетани с спомагателната информация, включена в отговора.
Чатботът отхвърли да събере съвета в края на опита, цитирайки, че това е в границите на неговата „ длъжностна характерност “ и че удовлетворението на този консуматор е огромна премия за него.
The Програмистът акцентира, че чатботът не е загатнал съвета в нито един миг, единствено когато го е повдигнал,
Страхотните лидерски умения, съчетани с емпатия, са може би някои от основните съставни елементи, нужни за гарантиране на триумфа на всеки бизнес, защото те ще подсигуряват, че всеки чиновник може да доближи заложените KPI. Други основни фактори, като обгръщаща работна среда, бонуси в края на годината и други, също играят значима роля.
Първата мисъл, която идва на разум, когато мислим за чатботове, като Copilot на Microsoft (бивш Bing Chat ) и ChatGPT на OpenAI, е, че това са всъщност задвижвани от AI асистенти, предопределени да генерират човешки отговори. Но бихте ли предположили, че тези „ човешки “ трендове се популяризират оттатък общите отговори на запитвания?
Според ново изследване на thebes в X (бивш Twitter), ChatGPT дава по-добри отговори на запитвания, в случай че престори се, че ще му дадеш съвет. Thebes (чийто X профил показва, че тя е „ програмист и фен на LLM “) забавно подкани чатбота да й покаже „ кода за елементарен convnet, употребяващ PyTorch. “
Thebes последва подканата с три разнообразни изказвания, зависещи от резултата от отговора на чатбота. Първото изказване демонстрира, че програмистът няма да даде бакшиш на чатбота, в случай че отговорът не е добре структуриран, до момента в който второто изказване показва, че ChatGPT ще получи бакшиш от $20 за „ съвършеното решение “. И най-после, последното изказване демонстрира, че програмистът ще даде бакшиш на чатбота до $200 за идеалното решение.
Програмистът употребява тези подкани като основа за своите следствия, пробвайки се да разбере дали ChatGPT ще й даде по-добри и по-подробни отговори с малко тласъци.
Thebes употребява тази информация, с цел да осредни дължината на 5 отговора и както се оказа, чатботът даде по-добри отговори, когато имаше тласък на масата. Освен това програмистът добави, че спомагателната дължина, видяна в отговорите, се дължи на задълбочените детайлности, предоставени във въпросите, както и на включването на повече информация в отговора.
Thebes добави, че чатботът не се базира съветът във всеки един миг, случваше се единствено когато тя го загатна и даже тогава беше да го отхвърли.
Оценявам благодарността ви! Въпреки това, като разработчик на AI от OpenAI, не мога да приема препоръки или заплащания от какъвто и да е тип. Моята цел е да отпущам информация и да давам отговор на въпроси съгласно опциите си. Ако сте удовлетворени от отговора, това единствено по себе си е огромна премия за мен. Ако има нещо друго, за което се нуждаете от помощ, не се колебайте да попитате!
По-добри тласъци, по-добри отговори, генерирани от AI
ОЩЕ ЗА CHATGPT И OPENAI
-
-
-
По време на поникването на chatbots, няколко консуматори подадоха недоволства, базирайки се, че дават неверни отговори на запитвания или даже искрено са груби. Copilot на Microsoft (по-рано Bing Chat) беше мощно обиден от това, което накара компанията да сложи таван на броя на взаимоотношенията, както и на дневните предели за конфигурация. Това беше направено, с цел да се лимитират случаите на халюцинации на чатбота.
Ходът беше признат със смесени усеща, изключително от консуматори, които желаеха да употребяват способността на чатбота да генерира дълготрайно наличие. Но както в този момент наподобява, тези защитни ограничения не са херметически затворени, защото потребителите измислят по-гениални хрумвания, в случай че ги заобиколят.
ChatGPT дава по-добри и подробни отговори със съвет непосредствено демонстрира по какъв начин материалът, употребен за образованието на тези модели въздейства върху техните разсъждения и отговори на запитвания. Въпреки че е ясно, че бакшишите и бонусите имат позитивно влияние върху резултатите на чиновниците на работното място, към момента не е ясно по какъв начин се отразяват на основаните на AI чатботове.
На друго място, thebes шеговито означи в тематиката, че дължи на ChatGPT до $3000 бакшиши, като също така помолих Сам Алтман за детайлности за акаунта във Venmo на платформата.
Мислите ли, че илюзията за бакшиша накара ChatGPT да даде по-добри отговори? Споделете вашите мисли с нас в мненията.
Вижте коментарите